Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6490 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Виртуализация VMware vSphere / ESX / ESXi, VMware View, VMware Workstation и др.

VMware
VMFS
Upgrade

VMware VMFS 5 - хранилище размером до 64 ТБ и апгрейд с VMFS 3.

(0 Comment)

Как вы знаете, в VMware vSphere 5 версия файловой системы VMFS была продвинута до 5. Это дает множество преимуществ по сравнению с VMFS 3, в частности, возможность создания хранилищ виртуальных машин (Datastore) размером до 64 ТБ без необходимости создания экстентов.

Это стало возможным благодаря использованию GPT-разделов (GUID Partition Table) вместо MBR-разделов (Master Boot Record). При этом, существует ошибочное мнение, что для томов VMFS 3, обновляемых на VMFS 5, ограничения старой версии в 2 ТБ на файловую систему Datastore остаются. Это не так - VMFS 5.0 при обновлении на нее с третьей версии действительно сохраняет формат MBR, однако после расширения тома более 2 ТБ происходит автоматическая конвертация MBR в GPT-диск.

То есть, происходит это так. У нас есть том VMFS 3, мы нажимаем ссылку "Upgrade to VMFS 5":

После прохождения мастера обновления, видим что тип тома - VMFS 5:

Однако здесь также видно, что том VMFS (теперь уже 5-й версии) остался размеров в 2 ТБ, несмотря на то, что LUN может быть более 2 ТБ. Кроме того, том остался MBR-форматированным, а размеры блоков VMFS 3 для него остались неизменными (см. KB 1003565). Надо отметить, что вновь создаваемые тома VMFS 5 всегда создаются с унифицированным размером блока - 1 МБ.

Чтобы расширить том VMFS, вызываем мастер "Increase Datastore Capacity":

Расширяем том, например до 3 ТБ:

Обратите внимание, что VMFS 5 не дает нам увеличения размера файла (vmdk) по сравнению с предыдущей версией - максимум по прежнему 2 ТБ, просто теперь том может быть размером до 64 ТБ без экстентов.

Запустим fdisk, посмотрим свойства расширенного тома и увидим, что он теперь GPT-том:

Далее операции с таким диском производятся с помощью утилиты partedUtil, но это уже другая история.

VMware
ESXi
Update

Как обновить VMware ESXi 5 без VMware Update Manager.

(0 Comment)

Многие пользователи VMware vSphere не пользуются средством автоматизированного обновления хост-серверов VMware Update Manager по тем или иным причинам. Кроме того, пользователи бесплатного VMware ESXi 5 хотели бы обновлять свои хост-серверы, потому как даже эта бесплатная платформа используется в компаниях в производственной среде. Если раньше можно было обновлять хосты ESX/ESXi 4 прямо из vCLI (vihostupdate), то теперь патч нужно загрузить на хранилище (Datastore).

Ниже представлен способ обновления VMware ESXi 5 без VMware Update Manager:

1. Загрузите нужный патч для VMware ESXi 5 с VMware Patch Portal в формате zip-файла.

2. Убедитесь, что на хосте включен доступ по SSH, а также на нем нет запущенных виртуальных машин (или переведите его в Maintenance Mode).

3. Скопируйте патч ESXi 5 в один из Datastore'ов (общий или локальный) с помощью бесплатной утилиты FastSCP. Лучше использовать общее хранилище, чтобы с одного файла патча обновлять несколько хостов.

4. Выполните команду консоли:

esxcli software vib install -d /vmfs/volumes/[DATASTORE]/[PATCH_FILE].zip

5. После этого начнется обновления хост-сервера VMware ESXi 5, по окончании которого его нужно будет перезагрузить.

Патч для ESXi можно накатить и через PowerCLI (но загрузить патч на Datastore все равно придется). Для этого можно использовать скрипт от Justin Guidroz.

VMware
VMDK
Storage

Как уменьшить тонкие (thin) диски виртуальных машин VMware ESXi 5, когда они разрослись.

(0 Comment)

Возвращаемся к проблеме тонких (thin) дисков VMware ESXi и уменьшения их размера после того, как они разрослись. Суть проблемы: когда вы используете тонкие диски для виртуальных машин - они постоянно растут, даже если вы удаляете в гостевой ОС. Это происходит потому, что ОС Windows (да и Linux) при удалении файлов не заполняет их блоки нулями, а просто помечает их удаленными в метаданных тома.

VMware
vSphere
Update

Какие компоненты были удалены из состава VMware vSphere 5.

(0 Comment)

Как вы знаете, с появлением VMware vSphere 5 появилось несколько новых возможностей платформы виртуализации и новых компонентов решения. Однако мы хотим сосредоточиться на том, какие компоненты больше не являются частью VMware vSphere 5.

Итак чего больше нет в vSphere 5:

  • Гипервизора ESX. Остался только ESXi. Все дальнейшие версии vSphere будут только на платформе ESXi.

  • Продукта VMware Converter Enterprise, поставлявшегося в виде плагина к vCenter. Читаем в Release Notes:

    "VMware vSphere 4.1 and its  subsequent update and patch releases are the last releases for the  VMware vCenter Converter plug-in for vSphere Client. VMware will  continue to update and support the free Converter Standalone product,  which enables conversions from sources such as physical machines, VMware  and Microsoft virtual machine formats, and certain third-party disk  image formats."

    То есть больше нет вот этого пункта меню в vSphere Client:



    Теперь вы можете использовать только VMware vCenter Converter Standalone (он бесплатен).

  • Обновления гостевых ОС через VMware Update Manager. Ранее гостевые ОС можно было обновлять средствами VUM через репозитории Shavlik, компании, которая не так давно была куплена компанией VMware. Теперь возможность обновления гостевых ОС есть в двух продуктах: VMware vCenter Protect Essentials и VMware vCenter Configuration Manager, приобретаемых отдельно от vSphere 5.

  • Компонента Guided Consolidation, позволявшего провести базовое исследование по миграции физических серверов в виртуальную среду VMware vSphere. Теперь вы можете использовать только VMware Capacity Planner, доступный со стороны партнеров VMware.



  • VMware Consolidated Backup теперь полностью исключен из списка поддерживаемых продуктов (для четвертой версии vSphere поддержка еще существовала). Вместо него используется vStorage API for Data Protection, используемый, например, в Veeam Backup and Replication 6.

  • Также нужно отметить, что несмотря на то, что VMware ESXi и VMware vCenter - полностью 64-битные продукты, некоторые компоненты, а именно: VMware Update Manager 5.0, View Composer (из поставки VIew), vSphere Client - по-прежнему 32-битные приложения.
VMware
VDI
VSI

Новая версия Login Virtual Session Indexer 3.5 - тестирование производительности виртуальных ПК.

(0 Comment)

Мы уже писали об утилите Login Virtual Session Indexer, которая позволяет измерять производительность виртуальных ПК (или терминальных сессий) в окружениях VDI. На днях вышла новая версия Login Virtual Session Indexer 3.5. Версия продукта Express Edition - бесплатна.

Новые возможности Login Virtual Session Indexer 3.5

  • Zero Footprint Launcher - теперь агентов можно запускать с любой файловой шары, без инсталляции
  • Pre/Post actions - действия до тестирования и после
  • Интерфейс Command Line для полной автоматизации тестирования
  • Возможность прерывания теста
  • Автоматический перезапуск зависших тестов
  • Шифрование логов
  • Улучшения в механизме генерации нагрузки
  • Поддержка счетчиков RemoteFX Host Performance (GPU, ошибки протокола и производительность ВМ и гипервизора)
  • Улучшения анализатора в плане интерфейса

Скачать Login Virtual Session Indexer 3.5 можно по этой ссылке (требуется регистрация).

VMware
ESX
Upgrade

Помощник миграции с VMware ESX на ESXi - новая утилита на VMware Labs.

(0 Comment)

На сайте проекта VMware Labs, где публикуются результаты внутренних разработок VMware (т.е. утилиты, которые факультативно разрабатываются сотрудниками компании) появилась новая утилита ESX System Analyzer.

ESX System Analyzer - это утилита, поставляемая в виде готового виртуального модуля (Virtual Appliance), которая позволяет пользователям спланировать миграцию хост-серверов ESX на платформу ESXi. Она анализирует серверы ESX в виртуальной инфраструктуре и собирает для каждого хоста информацию, которую необходимо учитывать в процессе миграции:

  • Аппаратную совместимость серверов с ESXi
  • Виртуальные машины, зарегистрированные на хосте ESX, а также ВМ, которые находятся на локальных дисках
  • Отличия настроек компонента Service Console от стандартных:
    • RPM-пакеты, которые были добавлены или удалены
    • Файлы в сервисной консоли, которые добавляли пользователи
    • Добавленные пользователи и задачи cron
Утилита ESX System Analyzer также собирает информацию о виртуальном окружении:
  • Версии VMware Tools и Virtual Hardware для всех виртуальных машин
  • Версии файловых систем для томов VMFS
На базе этой информации администраторы могут определить задачи, которые следует выполнить перед миграцией. Например:
  • Переместить ВМ с локальных дисков на общие хранилища
  • Понять, как можно заменить агентов в сервисной консоли на их безагентные альтернативы или CIM-агенты
  • Заменить задачи cron удаленными скриптами PowerCLI или vCLI

Системные требования к ВМ, содержащей ESX System Analyzer (работа с утилитой производится через веб-интерфейс):

  • 20GB virtual disk
  • 512MB virtual memory
  • 1 vCPU
  • vCenter Server 2.5, 4.0, 4.1, 5.0
  • ESX Hosts 3.5, 4.0, 4.1
  • Административный доступ к vCenter Server
  • Root password для анализируемых ESX
  • Включенный доступ Root по SSH на всех хостах

Скачать ESX System Analyzer можно по этой ссылке. Инструкция по работе с продуктом - тут.

EMC
VPLEX
HA

Интеграция EMC VPLEX с кластерами VMware HA - как обрабатываются ситуации сбоев.

(0 Comment)

Мы уже писали о решении EMC VPLEX, которое позволяет организовать катастрофоустойчивую архитектуру хранилищ для виртуальных машин за счет организации синхронного распределенного виртуального тома (Disrtibuted Virtual Volume).

Семейство продуктов EMC VPLEX с операционной системой EMC GeoSynchrony является решением по объединению на основе сети SAN. Технология EMC VPLEX Metro позволяет объединить дисковые ресурсы массивов, находящихся на двух географически разделенных площадках в единый пул хранения. Со стороны серверов ESX / ESXi на обеих площадках доступен один виртуальный логический том, который обладает свойством катастрофоустойчивости, поскольку данные физически хранятся и синхронизируются на обеих площадках.

Данная технология интегрирована с технологией отказоустойчивости VMware HA за счет поддержки структуры vSphere Metro Storage Cluster, что позволяет использовать их совместно для обработки различных вариантов сбоев в виртуальной инфраструктуре. К тому же, EMC VPLEX - это единственное сертифицированное VMware решение для организации географически "растянутых" кластеров VMware HA.

В географически разнесенных ЦОД, хранилища которых синхронизированы с помощью VPLEX, есть важная проблема – является ли нарушение связи между узлами кластеров VPLEX следствием сбоя сети или сбоя на площадке. Она затрагивает и кластеры VPLEX, которые находятся в различных географических точках. Система EMC VPLEX обрабатывает сбой сети путем автоматического прекращения всех операций ввода-вывода в устройстве («отключение») на одной из двух площадок в зависимости от набора преопределенных правил. Операции ввода-вывода в то же устройство на другой площадке продолжают выполняться в обычном режиме. Поскольку правила применяются к каждому устройству в отдельности, в случае разделения сети активные устройства могут присутствовать на обеих площадках. Для предотвращения этого используется Cluster Witness - компонент на сторонней площадке, отвечающий за мониторинг доступности основной и резервной площадки.

При отказе различных компонентов ИТ-инфраструктуры и каналов связи могут возникнуть различные ситуации как для кластера VPLEX, так и для кластера VMware HA, которые успешно обрабатываются и теоретически весьма мало ситуаций, которые могут привести к потере данных. Однако есть ситуации (и они всегда будут в распределенных ЦОД - именно потому RTO=0 это Objective, а не Requirement), когда нельзя автоматизировать операции по восстановлению и требуется вмешательство администратора, который выполнит наиболее правильное действие.

Вот как VPLEX совместно с HA обрабатывают различные варианты сбоев:

Сценарий Поведение VPLEX Влияние на кластер VMware HA
Отказ одного из путей порта VPLEX back-end (BE) к дисковому массиву. VPLEX прозрачно переключится на альтернативный путь, без влияния на работу распределенных виртуальных томов (Distributed Virtual Volumes). Отсутствует.
Отказ одного из путей к порту VPLEX front-end (FE) от хост-сервера. Сервер ESXi за счет встроенного механизма работы по нескольким путям переключится на резервный путь к распределенным виртуальным томам. Отсутствует.
Выход из строя массива на основной площадке. VPLEX продолжит обслуживать виртуальные тома, используя дисковый массив резервной площадки. Когда основной дисковый массив восстановится после сбоя, тома основного дискового массива будут автоматически синхронизированы с резервного. Отсутствует.
Выход из строя массива на резервной площадке. VPLEX продолжит обслуживать виртуальные тома, используя дисковый массив основной площадки. Когда резервный дисковый массив восстановится после сбоя, тома резервного дискового массива будут автоматически синхронизированы с основного. Отсутствует.
Выход из строя одного из устройств VPLEX Director. VPLEX продолжит обслуживать виртуальные тома, перенаправив запросы на другие директоры кластера VPLEX. Отсутствует.
Полная потеря основной площадки (катастрофа), включая все хосты ESXi и компоненты кластера VPLEX (обнаруживается с помощью Cluster Witness). VPLEX продолжит обслуживать запросы ввода-вывода на дисковом массиве резервной площадки. Когда основная площадка восстановится, виртуальные тома будут синхронизированы с резервной площадки.   Виртуальные машины основной площадки будут перезапущены на хостах резервной площадки.
Полная потеря резервной площадки (катастрофа), включая все хосты ESXi и компоненты кластера VPLEX (обнаруживается с помощью Cluster Witness). VPLEX продолжит обслуживать запросы ввода-вывода на дисковом массиве основной площадки. Когда резервная площадка восстановится, виртуальные тома будут синхронизированы с основной площадки. Виртуальные машины резервной площадки будут перезапущены на хостах основной площадки.
Множественный выход из строя хост-серверов в рамках одной из площадок. Отсутствует Механизм VMware HA перезапустит виртуальные машины на оставшихся хостах кластера HA.
Выход из строя сети сигналов доступности в рамках одной из площадок. Отсутствует. HA продолжит обмен сигналами доступности через общие хранилища (см. тут), что не повлечет за собой аварийного восстановления.
Все пути к хосту ESXi находятся в состоянии APD (All Paths down) – т.е. временно отсутствует доступ к хранилищам (виртуальным томам).  Отсутствует. В этом случае необходимо перезапустить сервер ESXi, что приведет к перезапуску виртуальных машин в кластере HA на других хост-серверах кластера HA.
Разрыв канала репликации между устройствами VPLEX при сохранении сети управления. На резервной площадке VPLEX переводит виртуальные тома в режим I/O Failure (что запрещает работу с ними). На основной площадке виртуальные тома продолжают оставаться доступными виртуальным машинам. На основной площадке виртуальные машины продолжают функционировать. На резервной площадке виртуальные машины получают ошибку ввода-вывода и выключаются. Механизм VMware HA (VM Monitoring) восстанавливает их на резервной площадке.
Сбой кластера VPLEX (компоненты кластера на обеих площадках недоступны, но хосты ESXi не испытывают проблем работы по SAN и СПД). Запросы ввода-вывода для всех виртуальных томов продолжат обслуживаться на основной площадке. Хосты ESXi на резервной площадке перейдут в состояние APD. Это потребует их перезагрузки для восстановления виртуальных машин. 
Одновременный полный выход из строя обеих площадок. После восстановления площадок VPLEX продолжит обслуживать запросы ввода-вывода (в первую очередь следует запустить дисковые массивы на обеих площадках). Хосты ESXi должны быть включены только после того, как компоненты VPLEX будут восстановлены, а виртуальные тома синхронизированы. При включении хостов ESXi виртуальные машины будут восстановлены механизмом VMware HA.
Выход из строя одного из директоров VPLEX на одной из площадок, а также выход дискового массива на противоположной площадке (резервная площадка для виртуального тома). Оставшиеся директоры кластера VPLEX продолжат обслуживать доступ к виртуальным томам, используя дисковый массив, являющийся для них основным. Отсутствует
Разрыв сети сигналов доступности (heartbeat) на одной из площадок и разрыв коммуникаций VPLEX между площадками (отличие от выхода из строя площадки понимает Cluster Witness). VPLEX прекращает обслуживать запросы ввода-вывода для виртуальных томов, у которых дисковые массивы помечены как резервные. Обмен продолжится только с дисковыми массивами, являющимися основными для виртуальных томов. На основной площадке виртуальные машины продолжат исполняться. Для VMware HA – это ситуация «split-brain» (хосты резервной  площадки считают себя оставшимися работоспособными в кластере и пытаются включить виртуальные машины). При включении ВМ на хостах резервной площадки будет получена ошибка ввода-вывода. В этой ситуации необходимо вручную перерегистрировать виртуальные машины резервной площадки на основной.  
Том VPLEX оказывается недоступен (например, случайно удален из консоли управления). VPLEX продолжит обслуживать запросы ввода-вывода с резервной площадки, где том доступен. Все хосты ESXi работающие с томом VPLEX получают ошибку ввода-вывода и переходят в состояние PDL (Permanent Device Loss). В результате компонент VM Monitoring останавливает виртуальные машины, после чего они запускаются на хостах другой площадки.
Разрыв соединения между компонентами VPLEX на обеих площадках и одновременных выход из строя соединения VPLEX Cluster Witness к основной площадке. VPLEX прекращает обслуживать запросы ввода-вывода к виртуальным томам на резервной площадке и продолжает работу с томами основной площадки. Виртуальные машины на резервной площадке завершат работу по ошибке ввода-вывода, они могут быть вручную зарегистрированы и запущены на резервной площадке.
Разрыв соединения между компонентами VPLEX на обеих площадках и одновременных выход из строя соединения VPLEX Cluster Witness к основной площадке. VPLEX прекращает обслуживать запросы ввода-вывода к виртуальным томам на основной площадке и продолжает работу с томами резервной площадки. Виртуальные машины на основной площадке завершат работу по ошибке ввода-вывода, они могут быть вручную зарегистрированы и запущены на резервной площадке.
Сбой компонента VPLEX Cluster Witness. VPLEX продолжает обслуживать запросы ввода-вывода на обеих площадках. Отсутствует.
Сбой компонента VPLEX  Management Server на одной из площадок.  Отсутствует. Отсутствует.
Отказ сервера управления виртуальной инфраструктурой VMware vCenter Отсутствует. На механизм VMware HA и восстановления виртуальных машин это не повлияет. Однако правила размещения и балансировки виртуальных машин по хост-серверам прекратят работать.  

Как видите, все ситуации обрабатываются разумно и корректно. Тут обязательным должно быть наличие VPLEX Cluster Witness, который отличит выход из строя линков между ЦОД от выхода из строя одного из ЦОД, о чем он скажет им обоим.

Также надо отметить, что полной автоматизации восстановления тут нельзя добиться, как говорится, "by design".

VMware
vSphere
HA

Скрипт для управления профилями кластеров VMware vSphere.

(0 Comment)

Может быть кто и сталкивался с такой проблемой как отслеживания настроек кластера. Кто-то что-то временно изменил в кластере (например, отключил HA на время), а потом в нужный момент перезапуск виртуальных машин не сработал. Функционал по профилям кластеров отсутствует среди возможностей VMware Host Profiles.

Для этих целей коллеги из Франции написали PowerCLI скрипт, который позволяет делать следующие вещи:

  • Импорт/экспорт/проверка кластерных настроек.
  • Сравнение реальных настроек кластера с настройками, сохраненными в файле.
  • Отправка сообщения о настройках кластера по email

А вот так выглядит письмо администратору vSphere:

Скачать скрипт Manage-ClusterProfile можно по этой ссылке. А вот тут несколько подробнее.

VMware
vSphere
VMachines

Превью vSphere 5 vReference card - раздел о виртуальных машинах.

(0 Comment)

На известном ресурсе vreference.com (автор - Forbes Guthrie), прославившемся тем, что публикует различные шпаргалки для VMware vSphere, которые можно повесить на стену в серверной, появилось превью документа vSphere 5 vReference Card в части управления виртуальными машинами и их конфигураций:

Серым цветом выделено то, в чем автор пока сомневается. В документе есть также описания различных технологий VMware - как новых, так и старых. В ближайшее время ожидается релиз полной версии vSphere 5 vReference card.

VMware
Softline
VSPP

Новый спонсор VM Guru: компания Softline как агрегатор по программе VMware для сервис-провайдеров (VSPP).

(0 Comment)

Многим из вас, уважаемые читатели, известна компания Softline, которая как и мы занимается продвижением технологий виртуализации. А технологии эти, как вы знаете, очень и очень разнообразны. В каких-то сферах - это лучший наш конкурент :), а в каких-то - один из лучших партнеров (назовем это одним из видов coopetition).

Сегодня мы рады представить нового спонсора ресурса VM Guru - компанию Softline как агрегатора по программе VMware для сервис-провайдеров (VMware Service Provider Program). О том, что это программа вы можете прочитать в статье "Сдача в аренду виртуальных машин VMware vSphere - кратко о программе VSPP".

Сразу хотим анонсировать бесплатный вебинар компании Softline - "VSPP – программа аренды лицензий VMware", который пройдет 30 ноября 2011 г. в 10.00 по московскому времени:

В рамках вебинара будут рассмотрены следующие темы:

  • Почему аренда?
  • Что такое VMware Service Provider Program (VSPP)?
  • Кому нужна данная программа? – Как работает VSPP?
  • Детали. Особенности. Требования.

Компания Softline обладает статусом VSPP Aggregator, что позволяет заключать контракты с поставщиками услуг на лицензирование по программе VSPP.

Softline стала первой российской компанией-обладателем статуса VSPP Aggregator по программе VMware Service Provider Program. Этот статус позволяет Softline предлагать своим партнерам ПО VMware в аренду на основе ежемесячных платежей.

Кратко, что есть агрегатор. Программа VMware VSPP - это отдельная ветка партнерства с VMware, предназначенная для компаний, который хотят сдавать в аренду виртуальные машины или другие объекты инфраструктуры VMware сторонним организациям и пользователям на основе регулярной (например, помесячной) платы за использование некоторым объемом ресурсов. Суть в том, что по лицензионному соглашению VMware вы не можете сдавать виртуальные машины (или другие объекты) в аренду без статуса VSPP.

А те, кто в этом статусе нуждаются - это телеком-операторы, интернет-провайдеры, системные интеграторы поставщики SaaS и другие компании, которые ведут бизнес по модели для клиентов "Pay-as-you-go". Чтобы вести такой бизнес (сдавать виртуальные машины или виртуальные ПК в аренду) надо стать партнером VMware по программе VSPP.

Но если, например, в случае с перепродажей лицензий вам нужен дистрибьютор, то в случае со сдачей виртуальных машин в аренду ваша компания также должна иметь "облачного" дистрибьютора, обладающим статусом VSPP Aggregator, с которым вы будете рассчитываться за аренду лицензий. На данный момент (по сведениям Partner Locator) компания Softline является единственным агрегатором VSPP в России, поэтому за дополнительными сведениями обращайтесь по этой ссылке.

VMware
View
VDI

Включение Copy / Paste между клиентской ОС и виртуальной машиной VMware View.

(0 Comment)

Если вы читали VMware Security Hardening Guide в последней редакции, то, должно быть, знаете, что в целях безопасности операции Copy и Paste в консоли виртуальных машин отключены по умолчанию.

Та же самая ситуация и с клиентом VMware View Client - по умолчанию пользователи не могут ничего скопировать в свою клиентскую ОС, хотя это часто нужно. Эту ситуацию можно исправить, изменив шаблон групповой политики pcoip.adm, который находится в следующей папке на VMware View Connection Server:

c:\Program Files\VMware\VMware View\Server\extras\GroupPolicyFiles\

Параметр называется Configure clipboard redirection:

После этого потребуется перезапуск VDI-сессии для применения настроек.

Источник

Кроме того, напомним, что шаблон pcoip.adm содержит еще несколько интересных параметров, касающихся производительности отображения рабочего стола пользователя, о которых написано у нас тут.

VMware
Fusion
Update

Для любителей Mac: VMware Fusion 4.1 позволяет запускать клиентские ОС Snow Leopard и Leopard в виртуальных машинах.

(0 Comment)

Компания Apple известна своей старческой позицией по отношению к лицензионным условиям для запуска своих операционных систем в виртуальных машинах. В частности, только сравнительно недавно компания позволила запускать серверные версии своих операционных систем Mac OS в виртуальных машинах (OS X Lion обычный и Server, OS X Snow Leopard Server и OS X Leopard Server).

А вот клиентские версии Leopard (10.5) и Snow Leopard (10.6) запускать нельзя (для OS X 10.7 Lion это ограничение было снято). Недавно компания VMware выпустила минорное обновление продукта для виртуализации настольных ПК VMware Fusion 4.1, который имеет следующие новые возможности:

  • Функция Smart Full Screen, позволяющая удобно работать в полноэкранном режиме
  • Функция Automatic Virtual Machine power on
  • Улучшенная анимация
  • Ускорение изменение рабочей области экрана и уменьшенное время загрузки
  • Улучшенная поддержка гостевых Mac OS X Lion и Leopard
  • Улучшенная производительность графики

Но инженеры VMware "забыли" вставить в мастер установки виртуальной машины строгую проверялку того, что устанавливается серверная Mac OS X (а раньше не забывали). То есть, установщик вас просит всего лишь уважать лицензионные требования Apple и идет дальше.

Таким образом, стала возможна установка клиентских версий ОС Snow Leopard (Mac OS X 10.6) и Leopard (Mac OS X 10.5) в виртуальной машине. То-то обрадовались разработчики - теперь можно тестировать свои приложения в разных версиях ОС (особенно, учитывая, что Lion не имеет поддержки Rosetta и кода PPC), не имея под рукой нескольких компьютеров и не прибегая ко всяким ухищрениям (в принципе-то, есть конечно способы все это запускать).

Однако Apple, наверное, такой шаг восприняла без энтузиазма и, видимо, наругала VMware. Поэтому VMware сказала, что следующий апдейт уже выйдет без вот такой интересной недокументированной возможности. А пока можно пользоваться:)

И да, OS X Lion можно устанавливать в виртуальной машине, включая клиентскую и серверную версии, но только на железе Apple. Запуск Mac OS на обычном ПК по прежнему запрещен лицензионным соглашением.

VMware
ESXi
Storage

Как правильно отвязать LUN (Datastore) от хоста VMware ESX/ESXi 4.1 и ESXi 5.

(0 Comment)

Часто бывает, что от хоста ESX/ESXi нужно отвязать Datastore и LUN, на котором это виртуальное хранилище находится. При этом важно избежать ситуации All Paths Down (APD) - когда на хосте все еще остались пути к устройству, а самого устройства ему больше не презентовано. В этом случае хост ESX/ESXi будет периодически пытаться обратиться к устройству (команды чтения параметров диска) через демон hostd и восстановить пути.

В этом случае из-за APD хоста начнут возникать задержки других задач (поскольку таймауты большие), что может привести к различным негативным эффектам вплоть до отключения хоста от vCenter.

ESX/ESXi 4.1

В версии ESX/ESXi 4.1 демон hostd проверяет том VMFS на доступность прежде чем слать туда команды ввода-вывода (I/Os) Но это не помогает для тех I/O, которые находятся в процессе в то время, когда случилась ситуация APD.

Как описано в KB 1015084, правильно отвязывать LUN с хоста ESX/ESXi 4.1 так (все делается на каждом из хостов):

  1. Разрегистрировать все объекты с этого Datastore (если они там есть), включая шаблоны - правой кнопкой по объекту, Remove from Inventory.
  2. Убедиться, что этот datastore не используют сторонние программы.
  3. Убедиться, что никакие из фичей vSphere для хранилищ (например, Storage I/O Control) больше не используются для этого устройства.
  4. Замаскировать LUN на хосте ESX/ESXi, следуя инструкциям KB 1009449 через модуль PSA (Pluggable Storage Architecture).
  5. Со стороны дискового массива распрезентовать LUN от хоста.
  6. Сделать "Rescan for Datastores" на хосте ESX/ESXi.
  7. Удалить правила маскирования LUN, которые вы сделали на шаге 4 по инструкции в KB1015084.
  8. Убедиться, что не осталось путей к устройству, после того, как вы проделали все эти операции.

Для ESX/ESXi 4.1 процесс достаточно сложный, теперь давайте посмотрим, как это выглядит в ESXi 5.

ESXi 5.0

В ESXi 5.0 появился новый статус  Permanent Device Loss (PDL), то есть когда хост считает, что дисковое устройство уже никогда не будет снова подключено, а ситуация APD рассматривается как временный сбой, после которого хост снова увидит пути и устройство.

Чтобы избавиться от сложной процедуры отключения LUN от хостов ESXi, VMware сделала операции detach и unmount в интерфейсе vSphere Client и в командном интерфейсе CLI.

Вот тут можно найти unmount Datastore (но устройство продолжит быть доступным):

А вот тут находится detach для самого устройства:

Как описано в KB 2004605, чтобы у вас не возникло ситуации APD, нужно всего-лишь сделать detach устройства от хоста. Это размонтирует VMFS-том (если там есть какие-нибудь объекты - vSphere Client вам сообщит об этом).

Таким образом правильная последовательность отключения LUN в ESXi 5.0 теперь такова:

  1. Разрегистрировать все объекты с этого Datastore (если они там есть), включая шаблоны - правой кнопкой по объекту, Remove from Inventory.
  2. Убедиться, что этот datastore не используют сторонние программы.
  3. Убедиться, что никакие из фичей vSphere для хранилищ (например, Storage I/O Control или Storage DRS) больше не используются для этого устройства.
  4. Сделать detach устройства на хосте ESXi, что также автоматически повлечет за собой операцию unmount.
  5. Со стороны дискового массива распрезентовать LUN от хоста.
  6. Сделать "Rescan for Datastores" на хосте ESXi.

Ну и в качестве дополнительного материала можно почитать вот эти статьи:

VMware
ThinApp
Cloud

VMware ThinApp 4.7 и VMware Horizon Application Manager - новые подробности.

(0 Comment)

Компания VMware объявила о выходе обновленной версии VMware ThinApp 4.7, среди новых улучшений которой, самой важной, несомненно, является интеграция с сервисом VMware Horizon (текущая версия сервиса - 1.2).

VMware Horizon Application Manager позволяет ИТ-администраторам следующие службы интеграции с VMware ThinApp:

  • Динамическое назначение пользователей и групп виртуализованным пакетам ThinApp за счет интеграции с Active Directory.
  • Безопасная сквозная аутентификация (single sign-on) к унифицированному каталогу виртуализовнных приложений Windows (SaaS для пользователей вашего предприятия), а также присоединенным веб-приложениям сторонних разработчиков.
  • Интерфейс для самостоятельного развертывания пакетов ThinApp и назначения их пользователям.
  • Мониторинг и отчетность по использованию приложений и возникающим проблемам.

Как можно догадаться из картинки, VMware Horizon - это веб-сервис компании VMware, предоставляющий услуги "федерации" приложений предприятия на пользовательском портале, к которому они обращаются из вашей организации (при этом сами пакеты хранятся в репозитории ThinApp на файловой шаре внутри вашей инфраструктуры).

В такой структуре распространения виртуальных приложений предприятия можно выделить следующие компоненты:

  • Horizon Service - это службы компании VMware на ее стороне, предоставляющие услуги федерации, контроля прав доступа пользователей и развертывания приложений. Реализован в виде портала пользователей (с функциями самообслуживания, т.е. самостоятельного развертывания приложений) и портала администратора (управление SaaS-средой).
  • Horizon Connector - это виртуальный модуль (Virtual Appliance), который обеспечивает взаимодействие среды VMware Horizon с компонентами вашей инфраструктуры.
  • Active Directory (your own) - то, откуда берутся списки пользователей и групп.
  • ThinApp Repository - обычный SMB-ресурс (шара), где находятся виртуализованные пакеты ThinApp
  • Horizon Agent - это агент на виртуальном ПК, который контролирует виртуализованные приложения.

После развертывания агента, Horizon Application Manager выводит иконки приложений на "Start Bar", двойной клик на которые позволяет запустить виртуализованное приложение, хранящееся в репозитории (или внешнее веб-приложение).

То есть, собственно, "федерация" - это и есть объединение виртуализованных пакетов ThinApp и сторонних сервисов для пользователей вашего предприятия, чтобы предоставить им SaaS-платформу для самостоятельного развертывания приложений. И VMware ThinApp 4.7 - это первый релиз, поддерживающий функционал VMware Horizon.

Более подробно о VMware Horizon и новой SaaS-платформе VMware можно узнать из статьи "VMware ThinApp 4.7 – What’s new?".

VMware ThinApp 4 .7 можно скачать по этой ссылке, а попробовать VMware Horizon можно на сайте проекта.

VMware
VMUG
Blogs

VMware User Group Украина - 25 ноября.

(0 Comment)

Хочу поддержать коллег (в частности, Костю Введенского из StarWind) и сообщить нашим друзьям с Украины, что 25 ноября в Киеве пройдет первая НА Украине встреча VMware User Group.

Что это такое? Это неофициальное мероприятие, посвящённое любым техническим темам, которые касаются компании VMware и её продуктов. Встречи такого формата проходят во многих городах и странах мира.

Для чего это нужно? Встреча может помочь всем желающим поделиться своим опытом с коллегами, узнать что-то новое и в неформальной обстановке пообщаться с высококлассными специалистами и представителями самой VMware, а также других профильных вендоров.

Для кого это всё? Большая часть обсуждений на мероприятиях такого рода зачастую носит технический характер (презентация решений, всевозможные howto и технические сравнения продуктов) – потому встреча в первую очередь нацелена на администраторов виртуальных инфраструктур, инженеров поддержки, системных администраторов и различных IT-специалистов, интересующихся тематикой виртуализации. Кроме того, обзорные доклады, релизы новейших продуктов и секретные подробности ещё не выпущенных продуктов могут заинтересовать руководителей IT-отделов, IT-аналитиков и просто энтузиастов от IT, жалающих быть на гребне новых тенденций.

И сколько? Нисколько. По традиции, участие в данном меропрятии бесплатное.

Дата: 25 ноября Место: конференц зал Арена Плаза. Количество мест строго ограничено. Зарегистрироваться можно по этой ссылке.

VMware
ThinApp
View

Режимы изоляции виртуализованных приложений VMware ThinApp.

(0 Comment)

Как многие знают, у компании VMware есть продукт VMware ThinApp, который позволяет создавать виртуализованные приложения, "отвязанные" от операционной системы (многие еще помнят этот продукт как Thinstall, а приложения так и назывались thinstalled applications). Такие приложения еще называют предустановленными - в результате его создания вы получаете 1 или 2 файла, которые можно просто переносить на флэшке и запускать или запускать с общего SMB-ресурса (см. нашу заметку тут).

Кроме того, виртуализацию приложений ThinApp можно интегрировать с решением для создания инфраструктуры виртуальных ПК предприятия VMware View 5 (см. нашу заметку тут). А скоро их вообще можно будет запускать через веб-браузер с поддержкой HTML5 в рамках решения VMware AppBlast (см. тут), извлекать из рабочих машин и распространять через ThinApp Factory (см. тут).

В этой заметке мы рассмотрим, какие режимы функционирования виртуализованных приложений ThinApp, а точнее - режимы изоляции приложения, определяющие с какими данными оно может работать и как взаимодействует с ОС, в которой запускается. Это определяет степень отделения приложения от ОС, в которой оно работает. Отделение это реализовано за счет папок и веток реестра "песочницы" (sandbox) приложения - определение того, куда приложение может производить запись и как влиять на файлы ОС.

В файле package.ini, который идет в составе проекта вы можете детально определить, в какие папки и ветки реестра приложение может осуществлять запись.

Всего есть 3 режима приложений ThinApp:

  • Full - в этом режиме приложение работает с реестром и файловой системе в условиях полной изоляции. Все элементы (изменения реестра и создаваемые файлы) остаются только внутри песочницы, а приложение не может ничего получить из ОС, ее файловой системы и реестра. То есть, приложение никак не повлияет на работу ОС и ничего не сможет в ней ни прочитать, ни изменить, ни создать. Файлы из песочницы и создаваемые объекты реестра существуют в виртуальных контейнерах только во время работы приложения, как только вы его закрываете - все пропадает.
  • WriteCopy - в этом режиме приложение может читать файлы ОС, в которой исполняется, но не может ничего записывать.
  • Merged - в этом режиме приложение может и читать, и записывать свои файлы, что необходимо для "тяжелых" пользовательских приложений (например, Microsoft Office).

При создании виртуализованного приложения в ThinApp в Setup Capture wizard, вы можете создавать только следующие режимы изоляции:

  • Modified Merged isolation mode - возможность чтения-записи файлов, кроме системных директорий.
  • Modified WriteCopy isolation mode - возможность ограниченного чтения файло ОС.

В режиме Modified Merged isolation mode приложению нельзя записывать ничего в следующие папки:

  • %AppData%
  • %Local AppData%
  • %Common AppData%
  • %SystemRoot%
  • %SystemSystem% (*see note below)
  • %ProgramFilesDir%
  • %Program Files Common%

В режиме Modified WriteCopy isolation mode приложению можно записывать только в следующие папки:

  • %Desktop%
  • %Personal% (My Documents)
  • %SystemSystem%\spool

GUI ThinApp позволяет задавать только эти 2 режима изоляции и только для файловой системы, остальные режимы изоляции и режим работы с реестром задается в файле Package.ini проекта ThinApp. По умолчанию режим RegistryIsolationMode в этом файле установлен в WriteCopy.

Помимо режимов работы для всей файловой системы и реестра, вы можете создать исключения для отдельных директорий и веток реестра с помощью файла ##Attributes.ini (как это делается описано тут).

Ну и на видео ниже вы можете услышать детальное описание режимов работы изоляции приложений ThinApp:

Кстати, хинт - для разработки пакетов ThinApp есть удобный редактор ThinApp Browser.

VMware
VSPP
vSphere

Сдача в аренду виртуальных машин VMware vSphere - кратко о программе VSPP.

(0 Comment)

Некоторые из вас, конечно же, как-то раз задумывались - а не открыть ли мне свой бизнес по сдаче в аренду виртуальных машин VMware vSphere? У каждого клиента будут свои виртуальные машины, я буду собирать с них помесячно плату, они уже никуда не соскочат, а мне останется лишь собирать деньги, да знай себе поддерживать инфраструктуру и наращивать мощности.

Я как человек в этом немного покрутившийся, могу вам сказать, что здесь не все так просто, и сам бы я такой бизнес профильным не сделал бы ни за что на свете. Но для тех, кого все-таки не оставляет эта идея, ниже приведены некоторые моменты об организации облака на основе решений VMware, виртуальные машины из которого вы можете предоставлять как услугу.

Начнем с того, что обычные лицензии VMware, которые вы покупаете у одного из партнеров или получаете как Internal Use Licenses, не позволяют вам сдавать виртуальные машины в аренду (внешним пользователям, не в своей организации) - это прямо запрещено пользовательским соглашением (EULA). Поэтому для таких дельцов придумана программа VSPP - VMware Service Provider Program (за само партнерство в программе платить не надо).

Программа VSPP направлена для сервис-провайдеров, телеком-операторов, интернет-провайдеров, поставщиков услуг, системных интеграторов и ИТ-подразделений корпораций, которые "продают" ИТ-ресурсы дочерним или аффилированным компаниям.

Эта программа позволяет вам получить некоторый пакет продуктов в рамках вашего партнерства с VMware по программе VSPP и начать предоставлять пользователям виртуальные машины (но не только!) в аренду, используя множество программных продуктов: vSphere, vCloud Director, vShield, View и многое другое. Всего есть несколько уровней партнерства по VSPP, у каждого из которых есть свои преимущества и требования.

Здесь нужно выделить 2 ключевых момента - это очки (points) и Aggregator (агрегатор) VSPP. Начнем с агрегатора. На самом деле вы не можете подписать контракт с VMware и начать сдавать в аренду ее машины и отчислять ей платежи. Это потому, что VMware ведет бизнес в каждой стране по своему и там ей нужны партнеры, которые посредством своих мутных схем и офшоров будут гонять бабло между, например, Россией, Кипром, ОАЭ и Америкой с одной стороны, а с другой - между юрлицом в России и российскими партнерами VMware.

Собственно, агрегатор - это тот же дистрибьютор, только касаемо облачных сервисов VMware. Но у него есть и некая техническая функция. Когда вы вписываетесь в VSPP, у вас в инфраструктуре vSphere развертывается специальное ПО на сервере vCenter, котороя смотрит сколько расходуется у вас ресурсов для виртуальных машин и посылает эти данные агрегатору. Делается это ежемесячно.

Далее агрегатор посылает эти данные в VMware на аудит, а сам выставляет вам счет, чтобы собрать бабло, которое дальше через офшоры и серые схемы потечет в VMware. В России таких агрегаторов несколько, и вы их найдете без труда.

Далее ключевой момент это очки (points), которые вы покупаете (а точнее, арендуете) ежемесячно, чтобы иметь право предоставлять некоторое количество услуг на базе продуктов VMware (чаще - виртуальных машин) в аренду. Самое важное тут то, что в большинстве случаев единицей тарификации является сконфигурированная оперативная память виртуальных машин (vRAM) - очки за 1 ГБ. Но есть и другие варианты тарификации для некоторых продуктов:

Но вас, скорее всего, интересует только Infrastructure as a Service (IaaS) - то есть, собственно, сдача виртуальных машин в аренду (то, что выделено красным). На сами цифры не смотрите - они американские и для нас неактуальные.

Для нас интересны вот эти 2 набора (эти цифры, вроде, актуальные):

VSPP Standard Bundle - это, по-сути, VMware vSphere 5 + Chargeback (для внутреннего биллинга) + vCloud Director (система управления датацентром с точки зрения облака - выделение ВМ и ресурсов, задание уровней сервиса, управление пользователями и т.п.). Для нас он стоит 5 очков в месяц за 1 ГБ памяти виртуальных машин (ниже я расскажу какой гигабайт). Второй VSPP Enterprise Bundle включает в себя еще и продукт vShield Edge для комплексной защиты периметра датацентра (см. подробнее тут и тут).

Теперь о тарификации этого самого гигабайта. Вы уже поняли, что единица стоимости - это 1 point, сколько он стоит в России я вам не скажу, но скажу, что в Америке 1 point = 1$. А суть лицензирования гигабайта такова:

  • Вы создаете виртуальные машины для аренды и выставляете им vRAM Reservation, но не менее 50% (требование VMware) от сконфигурированной памяти.
  • Максимально учитывается на одну ВМ - не более 24 ГБ.
  • Умножаете ваш бандл (например, для Standard - это 5 очков) на число vRAM ваших ВМ и на долю зарезервированных ресурсов (например, для 50% это, понятное дело, 0,5). Получаете общее количество очков в месяц, за которые вам надо платить агрегатору.
  • Выключенные ВМ не тарифицируются.

Как видно, у сервис-провайдера VSPP тоже есть некоторые права - вы можете гарантировать меньше ресурсов и меньше платить, либо обеспечить 100%-й SLA, но платить больше.

Смотрим на пример расчета:

Ну и каждый месяц агрегатор смотрит, сколько у вас набежало использованных очков, способствует продвижению уровня партнерства VSPP и выбиванию скидок за объем потребляемых поинтов. Вот тут есть хороший FAQ по программе VSPP, а тут - презентация.

Вкратце - это все. Тема у нас пока эта очень муторная. Если инетересно дальше - могу дать контакт с кем можно поговорить на эту тему. Ну а хотите купить виртуальные машины VMware в аренду - пожалуйста.

VMware
vSphere
Storage

Утилита для выравнивания блоков ВМ VMware vSphere - UBERAlign (+уменьшение дисков Thin VMs).

(0 Comment)

Несмотря на то, что в VMware vSphere Client диски виртуальных машин создаются уже выровненными относительно блоков системы хранения данных, многих пользователей платформы беспокоит, не выглядит ли их дисковая подсистема для ВМ таким образом:

Специально для таких пользователей, на сайте nickapedia.com появилась бесплатная утилита UBERAlign, которая позволяет найти виртуальные диски машин с невыровненными блоками и выровнять их по любому смещению.

Но самое интересное, что утилита UBERAlign работает еще и как средство, позволяющее уменьшать размер виртуальных дисков ВМ с "тонкими" дисками (thin provisioning), возвращая дисковое пространство за счет удаленных, но не вычищенных блоков.

Скачать UBERAlign можно по этой ссылкевот тут в формате виртуального модуля OVA), полный список возможностей утилиты можно найти тут (там еще несколько видеодемонстраций).

VMware
HA
vSphere

VMware vSphere 5 HA: das.failuredetectiontime больше не работает.

(0 Comment)

Многие пользователи VMware vSphere знают, что для кластера HA раньше была настройка das.failuredetectiontime - значение в миллисекундах, которое отражает время, через которое VMware HA признает хост изолированным, если он не получает хартбитов (heartbeats) от других хостов и isolation address недоступен. После этого времени срабатывает действие isolation response, которое выставляется в параметрах кластера в целом, либо для конкретной виртуальной машины.

В VMware vSphere 5, в связи с тем, что алгоритм HA был полностью переписан, настройка das.failuredetectiontime для кластера больше не акутальна.

Теперь все работает следующим образом.

Наступление изоляции хост-сервера ESXi, не являющегося Master (т.е. Slave):

  • Время T0 – обнаружение изоляции хоста (slave).
  • T0+10 сек – Slave переходит в состояние "election state" (выбирает "сам себя").
  • T0+25 сек – Slave сам себя назначает мастером.
  • T0+25 сек – Slave пингует адрес, указанный в "isolation addresses" (по умолчанию, это Default Gateway).
  • T0+30 сек – Slave объявляет себя изолированным и вызывает действие isolation response, указанное в настройках кластера.

Наступление изоляции хост-сервера ESXi, являющегося Master:

  • T0 – обнаружение изоляции хоста (master).
  • T0 – Master пингует адрес, указанный в "isolation addresses" (по умолчанию, это Default Gateway).
  • T0+5 сек – Master объявляет себя изолированным и вызывает действие isolation response, указанное в настройках кластера.

Как мы видим, алгоритм для мастера несколько другой, чтобы при его изоляции остальные хосты ESXi смогли быстрее начать выборы и выбрать нового мастера. После падения мастера, новый выбранный мастер управляет операциями по восстановлению ВМ изолированного хоста. Если упал Slave - то, понятное дело, восстановлением его ВМ управляет старый мастер. Помним, да, что машины будут восстанавливаться, только если в Isolation Responce стоит Shutdown или Power Off, чтобы хост мог их погасить.

Ну и не забываем про заметку новые расширенные настройки и Isolation Responce.

VMware
HA
Storage DRS

Осторожно: VMware vSphere Storage DRS + VMware HA может убить вашу виртуальную машину при использовании разных версий ESXi в кластере.

(0 Comment)

Интересный момент обнаружился на блогах компании VMware. Оказывается, если вы используете в кластере VMware HA разные версии платформы VMware ESXi (например, 4.1 и 5.0), то при включенной технологии Storage DRS (выравнивание нагрузки на хранилища), вы можете повредить виртуальный диск вашей ВМ, что приведет к его полной утере.

Об этом написано в документе vSphere 5.0 Availability Guide:

In clusters where Storage vMotion is used extensively or where Storage DRS is enabled, VMware recommends that you do not deploy vSphere HA. vSphere HA might respond to a host failure by restarting a virtual machine on a host with an ESXi version different from the one on which the virtual machine was running before the failure. A problem can occur if, at the time of failure, the virtual machine was involved in a Storage vMotion action on an ESXi 5.0 host, and vSphere HA restarts the virtual machine on a host with a version prior to ESXi 5.0. While the virtual machine might power on, any subsequent attempts at snapshot operations could corrupt the vdisk state and leave the virtual machine unusable.

По русски это выглядит так:

Если вы широко используете Storage vMotion или у вас включен Storage DRS, то лучше не использовать кластер VMware HA. Так как при падении хост-сервера ESXi, HA может перезапустить его виртуальные машины на хостах ESXi с другой версией (а точнее, с версией ниже 5.0, например, 4.1). А в это время хост ESXi 5.0 начнет Storage vMotion, соответственно, во время накатывания последовательности различий vmdk (см. как работает Storage vMotion) машина возьмет и запустится - и это приведет к порче диска vmdk.

Надо отметить, что такая ситуация, когда у вас в кластере используется только ESXi 5.0 и выше - произойти не может. Для таких ситуаций HA и Storage vMotion полностью совместимы.

VMware
HA
vSphere

Как себя ведет VMware HA при выключении всех хостов ESXi в vSphere 5.

(0 Comment)

Многие задаются вопросом - а как себя поведет кластер VMware HA в vSphere 5 при отключении всех хост-серверов VMware ESXi 5 (например, отключение электричества в датацентре)?

Алгоритм в этом случае таков:

1. Все хосты выключаются, виртуальные машины на них помечаются как выключенные некорректно.
2. Вы включаете все хосты при появлении питания.
3. Между хостами ESXi происходят выборы Master (см. статью про HA).
4. Master читает список защищенных HA виртуальных машин.
5. Master инициирует запуск виртуальных машин на хостах-членах кластера HA.

Надо отметить, что восстановлении VMware HA смотрит на то, какие из них были выключены некорректно (в случае аварии), и для таких ВМ инициирует их запуск. Виртуальные машины выключенные корректно (например, со стороны администратора) запущены в этом случае не будут, как и положено.

Отличия от четвертой версии vSphere здесь в том, что вам не надо первыми включать Primary-узлы HA (для ускорения восстановления), поскольку в vSphere 5 таких узлов больше нет. Теперь просто можете включать серверы в произвольном порядке.

По мотивам заметки Duncan'а.

VMware
vSphere
Performance

Насколько VMware vSphere 5 работает быстрее vSphere 4?

(0 Comment)

Многие из вас знают, что у компании VMware есть утилита VMmark, которая позволяет измерять производительность различных аппаратных платформ (и работающих в ВМ приложений), когда на них работает платформа виртуализации VMware vSphere. При этом можно сравнивать различные платформы между собой в плане производительности.

Сейчас компания VMware решила сделать несколько иначе: на одном и том же сервере Dell Power Edge R310 поставить vSphere 4, посчитать производительность, а потом сделать то же самое с vSphere 5 на этом же сервере. При тестировании было 4 типа нагрузки с нарастанием до насыщения утилизации сервера по CPU и получились вот такие результаты:

В результате ESXi 5.0 обогнал ESXi 4.1 на 3-4% очкам в зависимости от нагрузки (линии же CPU - практически одинаковы). Но самое интересное, что при росте нагрузки машин на сервер ESXi 5 позволил поддерживать виртуальных машин на 33% больше, чем ESXi 4.1 при условии соблюдения требований к качеству обслуживания для виртуальных машин - правый столбик (как это оценивалось не очень понятно). При этом ESXi 5.0 позволял выполнять в два раза больше операций с инфраструктурой в кластере, чем его предшественник (см. ниже).

Также VMware померила время отклика различных приложений и вычислила их задержки (latency), а также latency для операций инфраструктуры (vMotion, Storage vMotion и VM Deploy). Вышло так (показано в нормализованном виде):

Обратите внимание, что vMotion и Storage vMotion - стали работать значительно быстрее (о том, как это было сделано - тут). Вот как раз за счет низкого latency ESXi 5 и смог обеспечить поддержку на 33% больше виртуальных машин при условии соблюдения QoS.

Подробнее о тестировании написано тут.

VMware
vSphere
Upgrade

Технические детали по миграции с VMware vSphere 4 на vSphere 5.

(0 Comment)

На мероприятии UK VMware User Group Julian Wood представил интересную презентацию, которая суммирует необходимые дествия и процедуры по миграции с платформы VMware vSphere 4 на vSphere 5, включая хост-серверы ESX / ESXi, vCenter (включая его компоненты), виртуальные машины, VMware Tools и тома VMFS.

Один из лучших материалов, обобщающих информацию на тему миграции на vSphere 5.

VMware
View
PCoIP

Оптимизация протокола PCoIP в VMware View 5 - 4 простых способа.

(0 Comment)

Как многие из вас знают, в новой версии решения для виртуализации настольных ПК предприятия VMware View 5 появилось множество интересных возможностей, одно из которых возможность отключения передачи картинки десктопа пользователю без потери качества (Disable build-to-lossless) для протокола PCoIP, что очень актуально для WAN-соединений.

Если сравнивать версии VMware View, то для обычного офисного ПК необходима следующая полоса пропускания канала до устройства доступа (тонкого или толстого), если он работает в виртуальной машине:

  • View 4.x с дефолтными настройками = 150 Kbps
  • View 5.x с дефолтными настройками = 60Kbps
  • View 5.x с опцией Disable build-to-lossless = 48Kbps

Как видно, помимо того, что в VMware View 5 существенно уменьшились требования к каналу, с отключением передачи десктопа без потери качества можно добиться снижения требований еще до 30%.

Если говорить о качестве картинки рабочего стола, то выглядит это так:

Из картинки видна, что потери весьма незначительны. Конфигурируется эта настройка через шаблон групповой политики (GPO) pcoip.adm, расположенный на сервере VMware View Connection Server в папке:

<install_directory>\VMware\VMware View\Server\Extras\GroupPolicyFiles

Там много интересных настроек протокола PCoIP, но нас интересует первая - Turn off Build-to-Lossless feature:

Все это можно делать и через реестр - читайте KB 1014686 или вот тут.

Вторая оптимизация - это video frame-rate, то есть частота отображения кадров для видео, а также качество передаваемой картинки. Задается она настройкой Configure PCoIP image quality levels, где есть на выбор три опции для тюнинга протокола PCoIP:

  • Minimum и Maximum Image Quality - по умолчанию установлено в значение 50 (диапазон - от 30 до 100). Определяет качество картинки при заданном количестве кадров (третий параметр). Minimum гарантирует качество картинки, maximum - ограничивает полосу, необходимую для десктопа. Когда канал широкий - настройка Maximum игнорируется и PCoIP работает на максимально возможном качестве картинки.
  • Minimum и Maximum Initial Image Quality - это качество картинки первично передаваемой на десктоп View 5. Т.е. регулируется первично передаваемый регион картинки, а изменяющиеся регионы будут уже регулироваться первой настройкой. По умолчанию установлено в значение 90 (диапазон - от 30 до 100). Minimum Image Quality не может превышать Maximum Initial Image Quality.
  • Maximum Frame Rate - по умолчанию это значение равно 30 кадрам в секунду, но для большинства случаев, если установить 15 кадров, то требование к полосе для видео уменьшится до 1,7 раза, при этом гладкость картинки останется вполне приемлемой.

Третий вид оптимизации - оптимизация полосы пропускания для аудио (Configure the PCoIP session audio bandwidth limit).

Тут варианты такие:

  • 1600 kbps - для любителей качественного звука без компрессии в виртуальном ПК
  • 450 kbps - качественный звук с компрессией
  • 50-450 kbps - что-то среднее между FM-радио и телефоном

Если поставить значение 100, то будет нормальный звук (не для меломанов, конечно), при этом полоса, необходимая для аудио, снижается в 5 раз!

Четвертый вид оптимизации - это оптимизация пользовательского ПК с Windows. Тут рекомендации просты:

  • Выставляем настройку "optimize for performance" - требования к каналу снижаются на 10%
  • Отключаем шрифты ClearType - получаем еще 5%
  • Отключаем картинку рабочего стола, скринсэйвер, Windows update, Super-fetch и Windows index - получаем тоже выигрыш в производительности
  • И, наконец, регулируем настройку "Configure PCoIP client image cache size policy" - это новая функция VMware View 5, позволяющая определять размер кэша для картинок, передаваемых посредством PCoIP на сторону клиента (по умолчанию - 250 МБ)
  • Читаем полный список оптимизации гостевых ОС Windows 7 в качестве виртуальных ПК VMware View 5.

Вкратце - это первые шаги по оптимизации PCoIP для VMware View 5. Дальше изучаем следующие материалы:

Настроек там - немеряно. Экспериментируйте.

VMware
vSphere
Update

Вышли VMware ESX / ESXi 4.1 Update 2 и VMware vCenter 4.1 Update 2.

(0 Comment)

Компания VMware выпустила обновления для предыдущей версии своей серверной платформы виртуализации VMware ESXi 4.1 Update 2 и VMware vCenter 4.1 Update 2, входящих в состав VMware vSphere 4.1.

Для пользователей платформы VMware ESX 4.1, отметим что для "толстого" гипервизора вышло обновление VMware ESX 4.1 U2:

Новые возможности VMware ESX / ESXi 4.1 U2 и vCenter 4.1 U2:

  • Поддержка новых процессоров: AMD Opteron 6200 series (Interlagos) и AMD Opteron 4200 series (Valencia)
  • Поддержка гостевой ОС Ubuntu 11, полный список поддерживаемых ОС приведен в VMware Compatibility Guide
  • Исправления ошибок (список тут - их много)

Скачать VMware ESX / ESXi 4.1 Update 2 можно по этой ссылке.

VMware
View
Presentations

Новые материалы по VMware View 5.

(0 Comment)

Как мы уже писали, компания VMware выпустила новую версию своего решения для виртуализации настольных ПК предприятия VMware View 5, имеющую множество улучшений, в том числе в плане производительности протокола PCoIP.

Сейчас стали доступны несколько интересных материалов по View 5. Презентация Родиона Тульского, сотрудника российского подразделения VMware, на русском языке:

Производительность и лучшие практики использования протокола PCoIP:

И еще немного о производительности VMware View 5:

Ну и напоминаем, что недавно вышли клиенты View для устройств Apple iPad и Android.



VMware vCenter Infrastructure Navigator

(0 Comment)
VMware
Go
vCenter

Новые продукты VMware vCenter Protect Essentials Plus и VMware Go Pro для среднего и малого бизнеса.

(0 Comment)

Кто говорил, что на VMworld Europe 2011 будет просто пьянка (в отличие от анонсов VMworld 2011), оказался не совсем прав. Компания VMware анонсировала еще 2 продукта для пользователей в сфере малого и среднего бизнеса VMware vCenter Protect Essentials Plus и VMware Go Pro. Те, кто следит за новостями, знают, что продукты эти появились благодаря покупке компании Shavlik Technolgies компанией VMware.

Продукт VMware Go Pro (о котором мы уже писали) был разработан совместно компаниями Shavlik и VMware и предназначен для упрощения миграции на виртуальную инфраструктуру VMware в небольших организациях и управления ей через веб-браузер. С помощью служб Go можно развертывать новые виртуальные машины на базе бесплатного продукта VMware ESXi (теперь это VMware Hypervisor) и даже делать некоторые процедуры по управлению виртуальной и физической инфраструктурой. Он поставляется в бесплатном издании (Go) и коммерческом (Go Pro). Надо отметить, что продукт поставляется как SaaS-решение и имеет сервисы не только для виртуализации.

Бесплатная версия VMware Go предоставляет следующую функциональность:

  • IT Advisor - решение для обследования инфраструктуры на предмет виртуализации, которое предоставляет рекомендации по миграции систем.
  • Мастер установки, настройки и управления бесплатными хост-серверами vSphere hypervisors (ESXi 5)
  • Создание новых виртуальных машин Virtual Machines
  • Список программных компонентов в виртуальной среде
  • Список оборудования
  • Сканирование систем на обновления, включая ПО не только от Microsoft
  • Служба Help Desk для управления инцидентами на базе тикетов

Коммерческая версия Go Pro добавляет в решение следующую функциональность:

  • Управление лицензиями на ПО
  • Учет оборудования
  • Развертывание обновлений и патчей
  • Портал Help Desk для пользователей вашей организации и управление учетными записями
  • Поддержка SaaS-решения

Возможность использования платной версии продукта VMware Go Pro появится уже до конца года по цене от $12 за управляемую систему в год (для американцев).

Второй продукт - это VMware vCenter Protect Essentials Plus, который раньше назывался Shavlik NetChk Protect. Он позволит управлять обновлениями операционных систем и приложений в физических и виртуальных средах (которое для виртуальных машин раньше было в vSphere как раз от Shavlik). Поставляться он будет в двух издания - Essentials и Essentials Plus (отличия тут).

VMware vCenter Protect Essentials имеет следующие возможности:

  • Автоматическое сканирование и обновление выключенных виртуальных машин и шаблонов для ПО различных вендоров (например, Microsoft, Adobe, Java)
  • Работа с группами виртуальных машин
  • Поиск по domain, organizational unit, machine name, IP-адресу или диапазону IP
  • Запуск задач по обновлению систем в определенное время и по условиям
  • Поддержка патчинга для custom-приложений
  • Накат частных патчей от Microsoft
  • Custom Patch File Editor - для обновления внутренних продуктов компании
  • Machine View - информация о системах и их статусе
  • Поддержка скриптов, например, для сбора логов агентами и др.
  • Работа с агентами и без них
  • Поддержка резервного копирования и отката через механизм снапшотов

В решении VMware vCenter Protect Essentials Plus добавляются:

  • Антивирус на базе Sunbelt VIPRE Enterprise Antivirus and Antispyware
  • Управление электропитанием серверов через Wake-on LAN (WoL)
  • Управление конфигурациями систем (Configuration Management)
  • Расширенная поддержка сценариев, Microsoft PowerShell для автоматизации задач

Возможность использования продукта VMware vCenter Protect Essentials появится уже до конца года по цене от $57 за управляемый сервер в год и от $36 за рабочую станцию (для американцев).

Распространяться оба продукта будут, как я понимаю, через обычных реселлеров.

View
iPad
Android

Вышел VMware View Client for iPad 1.2 и VMware View for Android.

(0 Comment)

Компания VMware, после выхода решения для виртуализации настольных ПК предприятия VMware View 5, выпустила обновленный клиент для планшетов VMware View Client for iPad 1.2.

Что нового в VMware View Client for iPad 1.2:

  • Оптимизация для VMware View 5 с улучшенной производительностью по PCoIP
  • Поддержка iOS 5, включая возможности AirPlay (а также поддержка внешних мониторов и режима презентации)
  • Встроенный софтовый RSA-токен
  • Возможность быстрого переключения между рабочим столом с Windows и iOS-приложениями планшета
  • Улучшенный внешний вид
  • Механизм online-хелпа
  • Буферизуемый ввод текста
  • Поддержка европейских языков
  • Множественные исправления ошибок

Также обновился VMware View Client for Android до версии 1.2, который можно скачать по этой ссылке.

В клиенте добавились следующие возможности:

  • Оптимизация для VMware View 5
  • Поддержка новых моделей планшетов (Samsung Galaxy Tab 8.9, 10.1, Motorola Xoom и других)
  • Переключение между рабочим столом клиента и другими приложениями Android
VMware
HA
Metro

VMware vSphere 5 Stretched Clusters: Metro HA и vMotion на EMC VPLEX.

(0 Comment)

Скоро нам придется участвовать в интереснейшем проекте - построение "растянутого" кластера VMware vSphere 5 на базе технологии и оборудования EMC VPLEX Metro с поддержкой возможностей VMware HA и vMotion для отказоустойчивости и распределения нагрузки между географически распределенными ЦОД.

Вообще говоря, решение EMC VPLEX весьма новое и анонсировано было только в прошлом году, но сейчас для нашего заказчика уже едут модули VPLEX Metro и мы будем строить active-active конфигурацию ЦОД (расстояние небольшое - где-то 3-5 км) для виртуальных машин.

Для начала EMC VPLEX - это решение для виртуализации сети хранения данных SAN, которое позволяет объединить ресурсы различных дисковых массивов различных производителей в единый логический пул на уровне датацентра. Это позволяет гибко подходить к распределению дискового пространства и осуществлять централизованный мониторинг и контроль дисковых ресурсов. Эта технология называется EMC VPLEX Local:

С физической точки зрения EMC VPLEX Local представляет собой набор VPLEX-директоров (кластер), работающих в режиме отказоустойчивости и балансировки нагрузки, которые представляют собой промежуточный слой между SAN предприятия и дисковыми массивами в рамках одного ЦОД:

В этом подходе есть очень много преимуществ (например, mirroring томов двух массивов на случай отказа одного из них), но мы на них останавливаться не будем, поскольку нам гораздо более интересна технология EMC VPLEX Metro, которая позволяет объединить дисковые ресурсы двух географически разделенных площадок в единый пул хранения (обоим площадкам виден один логический том), который обладает свойством катастрофоустойчивости (и внутри него на уровне HA - отказоустойчивости), поскольку данные физически хранятся и синхронизируются на обоих площадках. В плане VMware vSphere это выглядит так:

То есть для хост-серверов VMware ESXi, расположенных на двух площадках есть одно виртуальное хранилище (Datastore), т.е. тот самый Virtualized LUN, на котором они видят виртуальные машины, исполняющиеся на разных площадках (т.е. режим active-active - разные сервисы на разных площадках но на одном хранилище). Хосты ESXi видят VPLEX-директоры как таргеты, а сами VPLEX-директоры являются инициаторами по отношению к дисковым массивам.

Все это обеспечивается технологией EMC AccessAnywhere, которая позволяет работать хостам в режиме read/write на массивы обоих узлов, тома которых входят в общий пул виртуальных LUN.

Надо сказать, что технология EMC VPLEX Metro поддерживается на расстояниях между ЦОД в диапазоне до 100-150 км (и несколько более), где возникают задержки (latency) до 5 мс (это связано с тем, что RTT-время пакета в канале нужно умножить на два для FC-кадра, именно два пакета необходимо, чтобы донести операцию записи). Но и 150 км - это вовсе немало.

До появления VMware vSphere 5 существовали некоторые варианты конфигураций для инфраструктуры виртуализации с использованием общих томов обоих площадок (с поддержкой vMotion), но растянутые HA-кластеры не поддерживались.

С выходом vSphere 5 появилась технология vSphere Metro Storage Cluster (vMSC), поддерживаемая на сегодняшний день только для решения EMC VPLEX, но поддерживаемая полностью согласно HCL в плане технологий HA и vMotion:

Обратите внимание на компонент посередине - это виртуальная машина VPLEX Witness, которая представляет собой "свидетеля", наблюдающего за обоими площадками (сам он расположен на третьей площадке - то есть ни на одном из двух ЦОД, чтобы его не затронула авария ни на одном из ЦОД), который может отличить падения линка по сети SAN и LAN между ЦОД (экскаватор разрезал провода) от падения одного из ЦОД (например, попадание ракеты) за счет мониторинга площадок по IP-соединению. В зависимости от этих обстоятельств персонал организации может предпринять те или иные действия, либо они могут быть выполнены автоматически по определенным правилам.

Теперь если у нас выходит из строя основной сайт A, то механизм VMware HA перезагружает его ВМ на сайте B, обслуживая их ввод-вывод уже с этой площадки, где находится выжившая копия виртуального хранилища. То же самое у нас происходит и при массовом отказе хост-серверов ESXi на основной площадке (например, дематериализация блейд-корзины) - виртуальные машины перезапускаются на хостах растянутого кластера сайта B.

Абсолютно аналогична и ситуация с отказами на стороне сайта B, где тоже есть активные нагрузки - его машины передут на сайт A. Когда сайт восстановится (в обоих случаях с отказом и для A, и для B) - виртуальный том будет синхронизирован на обоих площадках (т.е. Failback полностью поддерживается). Все остальные возможные ситуации отказов рассмотрены тут.

Если откажет только сеть управления для хостов ESXi на одной площадке - то умный VMware HA оставит её виртуальные машины запущенными, поскольку есть механизм для обмена хартбитами через Datastore (см. тут).

Что касается VMware vMotion, DRS и Storage vMotion - они также поддерживаются при использовании решения EMC VPLEX Metro. Это позволяет переносить нагрузки виртуальных машин (как вычислительную, так и хранилище - vmdk-диски) между ЦОД без простоя сервисов. Это открывает возможности не только для катастрофоустойчивости, но и для таких стратегий, как follow the sun и follow the moon (но 100 км для них мало, специально для них сделана технология EMC VPLEX Geo - там уже 2000 км и 50 мс latency).

Самое интересное, что скоро приедет этот самый VPLEX на обе площадки (где уже есть DWDM-канал и единый SAN) - поэтому мы все будем реально настраивать, что, безусловно, круто. Так что ждите чего-нибудь про это дело интересного.

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 | 67 | 68 | 69 | 70 | 71 | 72 | 73 | 74 | 75 | 76 | 77 | 78 | 79 | 80 | 81 | 82 | 83 | 84 | 85 | 86 | 87 | 88 | 89 | 90 | 91 | 92 | 93 | 94 | 95 | 96 | 97 | 98 | 99 | 100 | 101 | 102 | 103 | 104 | 105 | 106 | 107 | 108 | 109 | 110 | 111 | 112 | 113 | 114 | 115 | 116 | 117 | 118 | 119 | 120 | 121 | 122 | 123 | 124 | 125 | 126 | 127 | 128 | 129 | 130 | 131 | 132 | 133 | 134    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Kubernetes VMachines Enterprise Offtopic Broadcom Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF vSAN VKS Private AI VMmark Operations Certification Memory NVMe AI VMConAWS vDefend VCDX Explore Tanzu Workstation Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint Upgrade VCAP Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge